首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大龄程序员的人工智能之路

    Stable Diffusion XL 带来哪些新东西?

    前几天写了一篇小短文《 Stable Diffusion 即将发布全新版本》,很快,Stability AI 的创始人兼首席执行官 Emad Mostaque 在一条推文中宣布,Stable Diffusion XL 测试现已可用于公开测试。 不过在开始之前,简单说明一下: XL 并不是新 AI 模型的正式名称。 最后 可能从效果上看,Stable Diffusion 与商业产品 MidJourney、Leonardo AI 和 Microsoft Image Generator 相比有一定的差距。 尽管 Stable Diffusion XL 与之前的 AI 模型相比似乎没有显着改进,但它仍然是向前迈进了一步,相信今后还有进一步改进的空间。 我还是很期待新模型的发布。

    44230编辑于 2023-10-08
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生图和图生图实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生图和图生图实战。 本篇文章相关的代码保存在 soulteary/docker-stable-diffusion-xl-turbo,有需要可以自取,欢迎“一键三连”。 2023 年 11 月,官方推出了年度最强方案,并发布了 Stable Diffusion XL Turbo,性能比 LCM 进一步提升数倍,实现了实时出图。 当然,如果你和我一样,喜欢“偷懒”,可以用文章开头提到的示例项目中的文件直接开搞: # 下载项目代码 git clone https://github.com/soulteary/docker-stable-diffusion-xl-turbo.git # 切换工作目录 cd docker-stable-diffusion-xl-turbo # 构建基础环境镜像 docker build -t soulteary/sdxl-turbo-runtime

    1.4K10编辑于 2024-01-13
  • 来自专栏DeepHub IMBA

    MidJourney v5.2 、Stable Diffusion XL 0.9 出图对比

    最近两个最流行的AI图像生成器,Midjourney和Stable Diffusion,都发布了重大更新。 Stable Diffusion XL (SDXL) 0.9则专注于改善图像质量和构图。新模型使用更大的数据集和更强大的算法,生成的图像更清晰、更真实、更有凝聚力。 那么哪个AI图像生成器更好呢? 根据Stable Diffusion团队的说法,v0.9只是一个研究预览版,他们很快就会公布最终版本1.0,这应该是个好消息。 作者:Jim Clyde Monge

    59140编辑于 2023-08-30
  • 来自专栏为了不折腾而去折腾的那些事

    Stable Diffusion XL Turbo 文生图和图生图实践

    本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生图和图生图实战。 本篇文章相关的代码保存在 soulteary/docker-stable-diffusion-xl-turbo[1],有需要可以自取,欢迎“一键三连”。 •2023 年 11 月,官方推出了年度最强方案,并发布了 Stable Diffusion XL Turbo,性能比 LCM 进一步提升数倍,实现了实时出图。 # 切换工作目录 cd docker-stable-diffusion-xl-turbo # 构建基础环境镜像 docker build -t soulteary/sdxl-turbo-runtime --EOF---- 引用链接 [1] soulteary/docker-stable-diffusion-xl-turbo: https://github.com/soulteary/docker-stable-diffusion-xl-turbo

    1.1K10编辑于 2024-01-15
  • 来自专栏深蓝居

    Stable Diffusion XL1.0正式发布了,赶紧来尝鲜吧

    (sdwebui) [root@localhost]2.Stable Diffusion WebUI的安装2.1 克隆Stable Diffusion WebUI源码到本地执行命令:git clone 3.SDXL1.0大模型和vae下载当前我们并没有下载SDXL1.0的底模,需要手动从HuggingFace下载,具体URL:https://huggingface.co/stabilityai/stable-diffusion-xl-base -1.0/resolve/main/sd_xl_base_1.0.safetensorshttps://huggingface.co/stabilityai/stable-diffusion-xl-refiner -1.0/resolve/main/sd_xl_refiner_1.0.safetensors这两个文件是底模,大约7个G每个文件,下载到GPU服务器后,需要放到stable-diffusion-webui /models/Stable-diffusion文件夹中。

    5.3K51编辑于 2023-08-01
  • 来自专栏服务器运维日常

    从零开始:基于 ModelScope 本地部署 Stable Diffusion XL AI 绘画完全指南

    本文档记录了从零开始在本地部署 Stable Diffusion XL(SDXL)AI 绘画模型的完整过程,包括环境配置、依赖安装、模型下载、提示词编写技巧以及实战示例。 # 切换到 D 盘(如果已在 D 盘可跳过) cd d:\wwwroot\modelscope modelscope download --model AI-ModelScope/stable-diffusion-xl-base 参数说明: --model AI-ModelScope/stable-diffusion-xl-base-1.0 → 指定要下载的模型 --local_dir models/sdxl → 指定下载目录 11.3 完整代码 将以下代码保存到 image.py 文件中: """Stable Diffusion XL 文生图工具 功能特性: 1. 交互式输入 - 输入提示词即可生成图片 2. 到这里你已经掌握了基于 ModelScope 本地部署 Stable Diffusion XL AI 绘画模型的完整流程。

    45521编辑于 2026-01-15
  • 来自专栏Java项目实战

    Stable Diffusion简介

    Stable Diffusion 是一种用于图像生成的人工智能技术。它可以根据文本描述生成相应的图像。Stable Diffusion 是基于 Transformer 语言模型的开源技术。 图片Stable Diffusion 是基于 Transformer 语言模型的。具体来说,它使用了 OpenAI's CLIP model 和 Diffusion models。 Stable Diffusion 使用 CLIP model 来建立图像和文本描述之间的关联,从而实现根据文本生成图像的功能。 Stable Diffusion 采用了 DDPM(Denoising Diffusion Probabilistic Models) 这一 diffusion model,它可以将噪声图像通过arosól 得到训练好的 Stable Diffusion 模型,可以输入文本描述并生成匹配的图像。

    2.1K20编辑于 2023-06-25
  • Stable Diffusion简介

    Stable Diffusion是一种用于图像生成的模型,它可以生成高质量的图像。下面我将逐个介绍。 1. Stable Diffusion是一种基于概率的生成模型,它通过学习数据的概率分布来生成新的样本。与传统的生成模型相比,Stable Diffusion具有更好的稳定性和生成效果。 Stable Diffusion在生活和实践中有着广泛的应用。例如,在图像修复领域,我们可以使用Stable Diffusion来修复受损的图像,将模糊、噪声或缺失的部分恢复为清晰的图像。 此外,Stable Diffusion还可以用于图像合成、图像增强和图像生成等任务。例如,我们可以使用Stable Diffusion生成逼真的艺术作品、虚拟场景或者人脸图像。 4. Stable Diffusion作为一种生成模型,具有广阔的发展前景。随着计算机硬件的不断进步和深度学习算法的不断发展,Stable Diffusion可以生成更高质量、更逼真的图像。

    31910编辑于 2025-12-16
  • 来自专栏机器之心

    开源文生图模型再进化,Stable Diffusion XL 1.0登场,出图效果不输Midjourney

    机器之心报道 编辑:蛋酱、梓文 Stable Diffusion XL 1.0 闪亮登场,给你不一样的色彩体验。 在大模型开启的 AIGC 时代,由明星 AI 初创公司 Stability AI 打造的文本到图像生成模型 Stable Diffusion 可谓风靡全球。 虽然从文本到图像的生成模型并不少,但 Stable Diffusion 是最受欢迎的开源模型。 各路开发者也基于 Stable Diffusion 模型进行二创,推出各种各样、花式繁多的 AIGC 应用。 刚刚,Stability AI 正式推出了 Stable Diffusion XL(SDXL)1.0。文本到图像生成模型,又完成了进化过程中的一次重要迭代。

    89420编辑于 2023-08-08
  • 来自专栏大龄程序员的人工智能之路

    Stable Diffusion 2.0 来了

    Stable Diffusion 一经发布,就立刻在业界掀起巨大的波浪。 我个人后知后觉,直到 Stable Diffusion V1.4 版本发布,才接触 Stable Diffusion (之前使用的是 Disco Diffusion)。 下面是使用 Stable Diffusion 2.0 生成的图像示例,图像分辨率为 768x768。 超分辨率 Upscaler 扩散模型 Stable Diffusion 2.0 还包括一个 Upscaler Diffusion 模型,该模型将图像的分辨率提高了 4 倍。 当然,现在可以一步到位,Stable Diffusion 2.0 可以生成分辨率为 2048x2048 甚至更高的图像。

    2.2K30编辑于 2023-02-27
  • 来自专栏小孟开发笔记

    stable diffusion汉化教程

    二、下载汉化包 stable-diffusion-webui-localization-zh_CN汉化包 将压缩包解压,找到localizations目录下的zh_CN.json文件,把它放到<stable diffusion根目录>/localizations下。 以上就是stable diffusion汉化教程了,希望对你有用,谢谢。

    1.5K20编辑于 2023-10-13
  • 来自专栏xiaosen

    Stable Diffusion AI绘画

    随着深度学习技术的飞速发展,一种名为Stable Diffusion的新型生成模型引起了广泛关注。 Stable Diffusion是一种基于概率的生成模型,它可以学习数据的潜在分布,并生成与训练数据相似的新样本。  Stable Diffusion是基于连续扩散过程的一种生成模型。 具体来说,Stable Diffusion将数据生成过程分解为一系列离散的时间步,每个时间步都对应一个条件概率分布。 关于DPM算法:这是我们在stable diffusion用的最多的方法,我们按照时间速度来筛选的话,我们直接选择DPM++ 且后面跟着Karras的算法就可以了。 我们还可以选择Stable Diffusion新版本增加的Unipc和Restart采样器。

    68410编辑于 2024-05-06
  • 来自专栏GoCoding

    Stable Diffusion WebUI 环境

    Stable Diffusion 是热门的文本到图像的生成扩散模型,本文介绍了如何准备其 WebUI 环境。 Stability AI[1] Stability API Extension for Automatic1111 WebUI[2] Stable Diffusion web UI[3] 环境基础 OS .safetensors $SDWEBUI/models/Stable-diffusion/ mv dreamshaper_6BakedVae.safetensors $SDWEBUI/models/Stable-diffusion /webui.sh webui-user.sh 可配置指定的 Stable Diffusion 版本等,默认值见 $SDWEBUI/modules/launch_utils.py。 Diffusion web UI: https://github.com/AUTOMATIC1111/stable-diffusion-webui [4] Civitai: https://civitai.com

    1.1K20编辑于 2023-08-26
  • 来自专栏崔哥的专栏

    Stable Diffusion 姓氏头像

    vae-ft-mse-840000-ema-pruned.safetensors, MR 3DQ 1.5版本 V2, Sampler: DPM++ 2M Karras, CFG scale: 7 然后粘贴到Stable Diffusion并展开填充。

    36310编辑于 2024-04-21
  • 来自专栏周末程序猿

    ChatGPT|Stable Diffusion实践

    最近根据文字输入生成图片很火,其技术是基于Stable Diffusion技术框架,Stable Diffusion的发布是AI图像生成发展过程中的一个里程碑,相当于给大众提供了一个可用的高性能模型,不仅生成的图像质量非常高 Stable Diffusion从功能上来说主要包括两方面: 1)其核心功能为仅根据文本提示作为输入来生成的图像(text2img); 2)你也可以用它对图像根据文字描述进行修改(即输入为文本+图像);

    70420编辑于 2023-04-17
  • 来自专栏机器之心

    击败Stable Diffusion XL,商汤绘画大模型出手即大作,论文公开、免费试玩

    自从 2022 年开始,以 Stable Diffusion、ChatGPT 为代表的生成式 AI 席卷了整个 AI 社区,AI 大模型也走进了公众的视野。 本文将介绍商汤大模型团队提出的文生图大模型 RAPHAEL,可以生成具有高度艺术风格或者摄影风格的图片,而且生成速度极快,并且在各项测试上击败了 Stable Diffusion XL,DALL-E 2 研究者使用了清洗后的 LAION-5B 以及一些内部数据集来训练 RAPHAEL,LAION-5B 的清洗方案参考了 Stable Diffusion,超参数文中都有提供。 具体的网络结构见下图: 实验结果 该研究首先在 FID 上进行了测试,FID 是一个衡量图片生成质量和多样性的指标,常常被用于评测生成模型的能力,实验在这一指标上击败了如 Stable Diffusion 此外,研究者同时也基于人类评估给出了一些指标,结论发现 RAPHAEL 在图文匹配度以及生成质量上均超过了 Stable Diffusion XL,DeepFloyd,文心一格以及 DALL-E 2,如下图所示

    36440编辑于 2023-08-07
  • 来自专栏程序那些事

    Stable Diffusion中的embedding

    Stable Diffusion中的embedding嵌入,也称为文本反转,是在 Stable Diffusion 中控制图像样式的另一种方法。 你需要把这些embedding文件放到Stable diffusion webUI根目录下面的embeddings文件夹,然后重启Stable diffusion webUI即可。 embedding:embedding、dreambooth 和hypernetwork的区别文本反转(Textual Inversion)、Dreambooth 和超网络 是三种不同的技术,它们都可以用于微调Stable Diffusion模型,但各自有不同的特点和应用场景。

    57320编辑于 2024-04-25
  • stable diffusion 安装教程详解

    安装和使用stable diffusion 教程(整合包与自己手动两种方法) 1、硬件要求: 有N卡的电脑。N卡指的整合包安装是NVIDIA显卡,最好在6G以上,已知16xx系列现在还不支持。 手动安装 3.1、点击网站https://github.com/AUTOMATIC1111/stable-diffusion-webui。 3.3、注册账号后,进入(CompVis/stable-diffusion-v-1-4-original at main)界面,下载名字为:”sd-v1-4.ckpt“的文件,大小4.27G,这是Stable 3.4、将下载好的“sd-v1-4.ckpt”文件,放入3.1步骤下载好的文件 stable-diffusion-webui目录下的model文件夹中。 3.5、点击 stable-diffusion-webui目录下webui-user.bat文件,开始运行安装,等待,假如有报错(大概率是网络问题),关掉重开。

    1.2K10编辑于 2025-12-16
  • 来自专栏CSDNToQQCode

    Stable Diffusion——外挂VAE模型

    Stable Diffusion 是一种基于变分自编码器(VAE)的深度学习模型,其作用主要是用于文本生成图像。 Stable Diffusion 的 VAE 模型在训练过程中会学习到一组潜在变量,这些潜在变量可以捕捉到图像中丰富的语义和结构信息。 这种基于文本生成的图像具有很高的稳定性和可复现性,因此得名“Stable Diffusion”。 总的来说,Stable Diffusion VAE 模型的作用是通过学习潜在表示空间,将文本表示转化为图像,从而实现高质量、稳定且可复现的文本生成图像任务。

    2.9K10编辑于 2023-12-25
  • 来自专栏小义思

    AutoDL云部署Stable Diffusion

    通过云平台部署Stable Diffusion工具,解决普通人电脑配置低、不懂魔法等痛点,轻松实现AI绘画 1.账号注册 AutoDL地址https://www.autodl.com/. masterJohn大佬也会经常更新镜像,分享stable diffusion的最新模型和最新玩法,方便大家快速入手。 Jupyterlab按钮,再次点击,跳转到下面的程序页面,双击"启动器.ipynb"文件,按照文件说明启动程序即可 启动成功后,回到实例列表页,点击自定义服务,在弹窗中点击访问 在新标签页,可以看到我们已经打开stable-diffusion-webui 界面了,接下来就可以愉快画画了 4.上传模型 stable diffusion的模型文件一般都比较大,实例的50G容量根本放不太多,建议通过阿里云盘上传 点击列表页中的autoPanel,在弹出的页面中选择公网网盘

    95910编辑于 2024-04-10
领券